Что выбрать - установку VMware vCenter в виртуальной машине или уже готовый модуль vCenter Server Appliance (vCSA).
Раньше пользователи думали о том, как нужно развертывать VMware vCenter - в виртуальной машине или на физическом сервере. Теперь время этих размышлений прошло - большинство ставит его в виртуальной машине. Однако с появлением готового модуля vCenter Server Appliance (vCSA) встал немного другой вопрос - использовать ли готовый vCSA или устанавливать vCenter в Windows. Попробуем разобраться. Таги: VMware, vCenter, vCSA, Сравнение, vSphere, Enterprise, SMB
Как защитить служебные виртуальные модули (Virtual Appliances) в виртуальной инфраструктуре VMware vSphere.
Как многие из вас знают, в виртуальной инфраструктуре VMware vSphere некоторое количество программного обеспечения распространяется в виде виртуальных модулей (Virtual Appliances), представляющих собой готовые виртуальные машины с необходимыми сервисами внутри.
К ним, например, относятся следующие вспомогательные модули от самой VMware:
- vCenter Server Virtual Appliance 5.5 (VCVA) - главный сервер управления виртуальной инфраструктурой vSphere на базе ОС SUSE Linux.
- vCenter Orchestrator 5.5 (vCOva) - средство автоматизации операций для виртуальных машин и хост-серверов.
- vCenter Operations Manager 5.7.1 (vCOPs) - средство комплексного мониторинга и анализа виртуальной среды.
- vCenter Infrastructure Navigator 2.0 (VIN) - решение для автоматического обнаружения и визуализации компонентов приложений и зависимостей инфраструктуры.
- vCloud Automation Center Virtual Appliance 6.0 (vCACva) - средство управления облачной инфраструктурой предприятия (SaaS, PaaS, IaaS) за счет единого решения, построенного поверх VMware vCloud Director.
- vCenter Management Assistant (vMA) - вынесенная "сервисная консоль" за пределы хост-серверов ESXi в отдельный виртуальный модуль, с которого удобно выполнять консольные команды RCLI (например, мониторинга - resxtop), а также хранить и запускать различные скрипты.
- VMware Log Insight - централизованное средство сбора и анализа логов, о нем мы уже писали тут.
- Horizon Workspace Manager 1.5 (наша статья тут) - средство автоматизации инфраструктуры виртуальных и физических ПК.
- vCloud Connector 2.5.1 (vCC) - средство миграции виртуальных машин на платформе VMware vSphere из частного облака предприятия в публичное хостинг-провайдера и обратно.
Все эти модули (а также и модули от сторонних производителей), будучи неотъемлемыми компонентами виртуальной среды, нуждаются в защите. Чтобы облегчить эту задачу пользователям, компания VMware выпустила документ "Hardened Virtual Appliance Operations Guide", в котором на 16 страницах вкратце рассказывают о том, как нужно защищать эти виртуальные модули в следующих контекстах:
- Root password - поставить нормальный пароль (сменить дефолтный!).
- Password Expiry - поставить нормальную политику устаревания паролей.
- Выполнить скрипт повышенной безопасности для параноиков (Dodscript.sh - сделан для Минобороны США). Там же написано про то, как поменять Security Banner (то есть скрин логина в консоль ESXi, на котором вывешено предупреждение об ответственности за несанкционированный доступ).
- Secure Shell, Administrative Accounts, and Console Access - использовать защищенный доступ к консоли виртуальных модулей.
- Time Sourcing and Synchronization - применять синхронизацию времени с доверенным источником.
- Log Forwarding – Syslog-ng and Auditd - перенаправлять собираемые логи на отдельный защищенный сервер.
- Boot Loader (Grub) Password - поставить пароль на загрузчик, исключающий также загрузку в Single user mode.
- Отключить сервисы NFS и NIS.

Начинание это, безусловно, является хорошим шагом со стороны VMware в плане обеспечения безопасности виртуальных модулей и инфраструктуры в целом. Но как-то маловато 16 страниц, вы не находите? Таги: VMware, Virtual Appliance, Security, ESXi, vSphere, Whitepaper
Калькулятор для расчета необходимой дисковой емкости под кластер VMware Virtual SAN (VSAN).
Мы довольно много пишем про кластеры хранилищ VMware Virtual SAN (VSAN), которые создаются на базе локальных дисков серверов VMware ESXi (например, тут и тут, а в последний раз - тут). А сегодня мы хотим рассказать о калькуляторе, который может пригодиться для расчета необходимой емкости хранилищ под Virtual SAN.

Написал его Duncan Epping, известный специалист по VMware vSphere и блоггер - один из немногих, которому можно верить.
Калькулятор рассчитывает общее количество требуемого дискового пространства (HDD и SSD-диски) как для кластера в целом, так и для одного хоста VMware ESXi, принимая в качестве исходных данных следующие параметры:
- Количество ВМ в кластере хранилищ.
- Объем оперативной памяти машины (vRAM).
- Размер виртуального диска машины.
- Число хостов, используемое для построения кластера.
- Параметр Failures to tolerate (о нем мы писали тут).
- Процент дискового пространства на метаданные и прочие издержки виртуализации хранилищ (по лучшим практикам - где-то 10%).
- Процент пространства, которое занимает SSD-накопитель от дискового пространства на базе HDD-дисков хоста ESXi.
Поиграть с калькулятором дискового пространства для Virtual SAN можно по этой ссылке. Таги: VMware, VSAN, Calculator, Virtual SAN, Storage, Blogs, vSphere
Вышел VMware vCenter Server 5.1 Update 2 и VMware ESXi 5.1 Update 2.
Для тех из вас, кто по причине отсутствия купленной подписки, лени или еще какой другой, использует старую версию платформы виртуализации VMware vSphere 5.1, компания VMware выпустила обновление VMware vCenter Server 5.1 Update 2.

Что нового в Update 2:
- vCenter Server 5.1 теперь поддерживается на платформе Windows Server 2012 R2.
- Возможность кастомизации нескольких дополнительных гостевых ОС через vCenter:
- Windows 8.1
- RHEL 6.4
- Windows Server 2012 R2
- SLES 11 Service Pack 3
- Добавлена поддержка СУБД Microsoft SQL Server 2012 Service Pack 1.
- Обновление протокола OpenSSL до версии openssl-0.9.8y.
- Исправления ошибок, которые можно найти вот тут.
Скачать VMware vCenter Server 5.1 Update 2 можно по этой ссылке.
Кроме этого, вышел также и VMware ESXi 5.1 Update 2, где почти ничего не изменилось:
Скачать VMware ESXi 5.1 Update 2 можно по этой ссылке. Таги: VMware, vSphere, Update, ESXi, vCenter
Вышел VMware ESXi 5.5.0 Driver Rollup 1.
Несколько недель назад компания VMware выпустила обновление ESXi 5.5.0 Driver Rollup 1, представляющее собой ISO-образ с самим ESXi 5.5 и дополнительными драйверами. Этот образ подходит только для чистой установки на хост и не поддерживает режим обновления (Upgrade).

VMware ESXi 5.5.0 Driver Rollup 1 содержит в себе драйверы IOVP certified drivers (IOVP - I/O Vendor Partner Program), то есть драйверы от производителей, которые добавились или обновились с момента выхода ESXi 5.5.
Обновлены были драйверы оборудования следующих производителей:
- Broadcom
- Cisco
- Emulex
- Fusion-io
- HP
- Hitachi
- Intel
- LSI Corporation
- QLogic
- Virident Systems
Release Notes для ESXi 5.5.0 Driver Rollup 1 доступны по этой ссылке. Таги: VMware, ESXi, Update, Hardware, vSphere
Как кластер VMware Virtual SAN (VSAN) обслуживает запросы на чтение блоков.
Мы уже немало писали про кластеры хранилищ VMware Virtual SAN (последнее - тут и тут), а сегодня рассмотрим механизм работы запросов на чтение блоков, который описал в своем блоге Duncan Epping.
Итак, схема кластера VMware Virtual SAN:

Здесь мы видим такую картину - виртуальная машина находится на хосте ESXi-01, а ее блоки размером 1 МБ размещаются на хранилищах разных хостов. При этом блоком 1 владеет ESXi-01, а блоком 2 - ESXi-03. Хост ESXi-02 не принимает участия в обработке запросов ввода-вывода.
Схема работы запроса на чтение проста - сначала проверяется наличие блока в кэше на чтение (Read cache), и если там блока не оказывается, то проверяется Write buffer на хранилище SSD (если блок еще не успел записаться на HDD) и непосредственно сам HDD-диск. В данном случае блок 1 нашелся на SSD-диске в кэше на чтение.
Второй же блок обслуживается хостом ESXi-03, но его не оказалось в кэше на чтение, и он читается с HDD-диска. Тут надо отметить, что кластер Virtual SAN помещает блоки в кэш на чтение только на тех хостах, которые активно обслуживают этот блок и владеют им, а те хосты, которые просто хранят копию данных - в Read cache таких блоков не помещают. Таги: VMware, Virtual SAN, VSAN, Storage, Blogs, vSphere, ESXi
Документ от VMware: Getting Started with OpenStack and VMware vSphere.
Не так давно мы писали о том, что компания VMware выпустила виртуальный модуль VOVA (vSphere OpenStack Virtual Appliance), предназначенный для интеграции с архитектурой OpenStack, которая представляет собой комплекс проектов свободного программного обеспечения, предназначенного для построения облачной инфраструктуры.
На днях же VMware выпустила небольшой документ "Getting Started with OpenStack and VMware vSphere", в котором описывается схема того, как использовать решение vSphere в качестве бэкэнда для компонентов Nova (контроллер вычислительных ресурсов) и Cinder (облачные блочные хранилища).


В указанном руководстве все опирается на виртуальный модуль VOVA с Linux-машиной, которая реализует все необходимые сервисы OpenStack.
Структура документа:
- Introduction
- VMware vSphere
- OpenStack
- Using OpenStack with vSphere
- OpenStack and vSphere: Conceptual Analogies
- The VMware OpenStack Virtual Appliance
- Requirements
- vSphere Requirements
- vSphere Inventory: Single Datacenter
- Cluster: Automated VMware vSphere Storage DRS
- Storage: Shared
- Networking
- Port Groups and VLANs
- ESXi Firewall
- DHCP Server
- Installation
- Importing VOVA
- Configuring VOVA
- Starting VOVA
- Configuring the VMware vSphere Web Client Plug-in for OpenStack
- Managing OpenStack with the Horizon Web Interface
- Logging In – Web
- Logging In – SSH/CLI
- Flavor of the Day
- Launching an Instance
- Accessing the Console for an Instance
- Managing Storage
- Adding Persistent Storage to an Instance
- Removing Persistent Storage from an Instance
- Adding the Persistent Storage to Another Instance
- Network
Надо отметить, что виртуальный модуль VOVA официально не поддерживается со стороны VMware и предоставляется "as is". Таги: VMware, VOVA, Virtual Appliance, Whitepaper, vSphere, Cloud
Как добавить свое правило (custom firewall rule) в сетевой экран VMware ESXi и сделать его NTP-сервером.
В небольших инсталляциях виртуальной инфраструктуры VMware vSphere может оказаться оправданным сделать один из серверов VMware ESXi сервером NTP, чтобы с ним синхронизировали свое время другие хосты.
Интересно, что немногие знают о том, что NTP-клиент сервера VMware ESXi 5.x (NTP-демон /sbin/ntpd) работает по-умолчанию не только как клиент, но и отдает время по запросу другим серверам как NTP-сервер. Поэтому достаточно лишь указать адрес хоста ESXi в качестве целевого хоста для синхронизации времени - и все будет работать.
Загвоздка тут одна - по умолчанию фаервол сервера ESXi блокирует входящие NTP-запросы по протоколу UDP на порт 123. Чтобы это исправить, нужно добавить собственное правило в сетевой экран. К сожалению, в Firewall GUI этой возможности не предусмотрено, поэтому придется лезть в конфиг-файл.
Для начала выведем список всех активных правил фаервола ESXi командой:
esxcli network firewall ruleset list

Создаем файл ntpd.xml с конфигурацией сервиса NTP со следующим содержимым (подробнее о процессе - тут):
<!-- Firewall configuration information for NTP Daemon -->
<ConfigRoot>
<service>
<id>NTP Daemon</id>
<rule id='0000'>
<direction>inbound</direction>
<protocol>udp</protocol>
<porttype>dst</porttype>
<port>123</port>
</rule>
<enabled>false</enabled>
<required>false</required>
</service>
</ConfigRoot>
Далее кладем этот файл в папку на хосте ESXi /etc/vmware/firewall/ntpd.xml и выполняем команду:
esxcli network firewall refresh
После этого мы увидим новое правило в конфигурации сетевого экрана ESXi (в командной строке его можно проверить командой list, приведенной выше):

Однако, к сожалению, пользовательская конфигурация фаервола ESXi не сохраняется при перезагрузке хоста, о чем написано в KB 2007381. Поэтому можно просто положить ntpd.xml на общее хранилище и добавить в /etc/rc.local команду по копированию ntpd.xml в нужную папку хоста и комнду рефреша правил фаервола. Однако это ненадежно, поскольку зависит от доступности общего хранилища.
Поэтому, все-таки, лучше сделать это правило постоянным с помощью процедуры, описанной у Андреаса, заметка которого и стала основой этой статьи. Для этого нужно будет создать и установить VIB-пакет (как сделать это для любого случая описано в той же KB 2007381).
Ну а используя готовый пакет от Андреаса, можно установить созданный им VIB для добавления правила в фаервол для NTP-сервера:
esxcli software acceptance set --level CommunitySupported
esxcli software vib install -v http://files.v-front.de/fwenable-ntpd-1.2.0.x86_64.vib
Все это работает как для ESXi 5.0/5.1, так и для ESXi 5.5.
Таги: VMware, ESXi, Security, Firewall, Blogs, NTP, vSphere
Подводим итоги: самые популярные статьи на VM Guru за 2013 год.
Настала пора посмотреть, какие темы в этом году в сфере виртуализации были у нас самыми актуальными и собрали больше всего просмотров. Поэтому мы просто сделали запрос к нашей базе и вывели статьи этого года, упорядоченные по количеству просмотров по убыванию.
Итак, как выглядит наш Топ-10 2013 года:

Неудивительно, что самым ожидаемым релизом этого года оказалась платформа виртуализации VMware vSphere 5.5. Каждый раз, когда выходит обновление vSphere, это делает маленькую революцию в сфере виртуализации. Ведь частные облака по-прежнему удерживают внимание ИТ-специалистов, и хост-платформа ESXi является лидирующим решением для построения корпоративных облачных инфраструктур.
Из технологий, которые оказались самыми интересными в vSphere 5.5 - это, конечно же, сервисы Virtual SAN, концепция Software Defined Networking (SDN) и продукт VMware NSX на ее основе, а также технология VMware Virtual Flash (vFlash).
Самый оживленный интерес вызвала именно версия View 5.2, у которой в названии добавилось еще слово Horizon, обозначающее принадлежность продукта к семейству решений из множества EUC (End User Computing).
Тут безусловные лидеры по интересу пользователей - функции 3D-графики в виртуальных ПК и технология Clientless HTML5 Access to View Desktops & Apps, позволяющая получать доступ к своим десктопам через браузер. Напомним, что не так давно вышла версия View 5.3, где функции по работе с 3D-графикой были значительно улучшены.

Как показывает статистика, тема переноса физических серверов в виртуальную среду по-прежнему актуальна. В статье рассказывается об основных аспектах процесса миграции P2V (Physical to Virtual) и средстве для автоматизации этого процесса - VMware Converter Standalone.

Оказывается, многим пользователям хочется подключить том VMFS к Windows-системе, чтобы скопировать его виртуальные машины, а далее заглянуть в содержимое их файлов виртуальных дисков (VMDK). Это возможно средствами драйвера Open Source VMFS Driver от fluid Ops. Жалко, что это средство поддерживается только для VMFS 3 и уже давно не обновляется.

Похвально, что тяга к знаниям находится у наших ИТ-специалистов так высоко. Скорее всего, заметка набрала много просмотров из-за того, что ссылку на нее часто пересылали.

Помимо решения для виртуализации настольных ПК VMware View, комплект Horizon Suite включает в себя VMware Horizon Mirage 4.0 - решение для управления образами рабочих станций пользователей, а также VMware Horizon Workspace 1.0 - комбинацию двух продуктов - Horizon Data (бывший Project Octopus - решение а-ля корпоративный Dropbox, о котором мы много писали вот тут) и Horizon Application Manager - решение для федерации SaaS-приложений и VDI-сервисов.

Тема резервного копирования хостов конфигурации хостов ESXi всегда востребована. Текущая версия этой утилиты (1.2) вышла в конце февраля этого года. Жаль, что не обновляется.
Конечно же, выпуск решения номер 1 для резервного копирования и репликации Veeam Backup and Replication 7 стал одним из главных событий этого года.

О каждой из новых функций решения можно почитать по этим ссылкам:
Действительно, полезный и нужный продукт.

Кто-то предрекал XenServer скорую смерть (в том числе, и мы), но он оказался живее всех живых. Citrix решила передать платформу XenServer сообществу Open Source, что может вдохнуть вторую жизнь в этот многострадальный продукт.

Действительно интересный пост наших коллег из компании ИТ-ГРАД, в котором рассказывается о Cisco UCS Manager, с помощью которого производится настройка всей системы. Данную задачу специалисты ИТ-ГРАД выполнили в рамках подготовки к тестированию FlexPod (Cisco UCS + NetApp в режиме MetroCluster) для одного из заказчиков.
На этом наш хит-парад закончен. Странно, что в него не попали статьи про новый Hyper-V (например, "Что нового будет в Hyper-V обновленного Windows Server 2012 R2", 12 место по популярности), но это объясняется, скорее всего, тем, что нас читают, в основном, любители VMware. Что ж, будем исправляться и поднажмем на заметки о решениях компании Microsoft, тем более, что она потихоньку откусывает свою долю рынка у VMware.
Всего в этом году у нас появилось 447 заметок о виртуализации и решениях для управления виртуальной инфраструктурой. Будем ждать вас уже в следующем году! С Наступающим Новым годом! Таги: VMware, Microsoft, Veeam, vSphere, Citrix, XenServer, VDI, View, Horizon, Cisco
Как ведет себя кластер VMware Virtual SAN (VSAN) в случае сбоев дисков или хоста VMware vSphere / ESXi.
Мы уже много писали о технологии VMware Virtual SAN (VSAN), которая позволяет создать отказоустойчивый кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бетаэтого решения, кроме того мы не так давно писали о производительности VSAN тут.
В этой заметке (на базе статьи Дункана) мы поговорим о том, как кластер VSAN обрабатывает сбои различного типа, и как происходит восстановление работоспособности виртуальной машины без ее простоя.
Итак, в нормальном режиме функционирования, при значении параметра FailuresToTolerate равном 1, который означает, какое количество отказов хостов может пережить кластер хранилищ, реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно заметить 5 особенностей кластера VMware VSAN:
- Виртуальный диск VMDK и его реплика всегда находятся на разных хост-серверах VMware vSphere.
- ВМ не обязательно должна исполняться на том хосте ESXi, на дисках которого находятся ее хранилища.
- Компонент witness находится на третьем по отоношению к виртуальному диску и его реплике хосте, чтобы создать определенность на случай разделения сети VSAN (где окажется 2 компонента из набора "vmdk-реплика-witness" - тот сегмент и будет определяющим).
- Сеть VSAN используется для операций ввода-вывода и определения доступности.
- Реплика VMDK-диска вместе с основной копией образуют RAID-1 массив, который увеличивает производительность операций чтения в виртуальной машине, так как для чтения используются оба хранилища.
Кроме того, вследствие особенностей реализации кластера VSAN, надо понимать, что команды ввода-вывода не применяются к диску данных виртуальной машины, пока не пришло подтверждение об их записи на реплике. Но подтверждение приходит не от HDD-диска, где находятся данные ВМ (это было бы очень медленно), а от SSD-диска, который используется как энергонезависимый Write Buffer для команд ввода вывода. Таким образом, этот буфер (и данные, само собой) зеркалирован в рамках дисковой группы на другом хосте ESXi.
Теперь рассмотрим различные виды сбоев в кластере VSAN.
1. Ломается диск дисковой группы, где исполняется виртуальная машина.
Выглядит это так:

В этом случае такой диск сразу же помечается как "degraded", а команды ввода-вывода перенаправляются на другой хост-сервер VMware ESXi. При этом виртуальная машина этого не замечает, так как переключается на работу с SSD-буфером/кэшем и HDD-дисками другого хоста мгновенно (данные на момент сбоя были синхронизированы, ничего не потерялось).
Одновременно с этим сразу же начинается процесс построения реплики на другом хосте ESXi в рамках его дисковой группы, при этом проверяется, достаточно ли там свободных дисковых ресурсов. Если их недостаточно, то механизм VSAN будет ожидать. Как только вы добавите диски/дисковые группы на хостах - сразу же начнется процесс построения реплики (до его окончания машина будет помечена как "degraded").
Тут надо отметить, что в degraded-состоянии скорость записи данных останется прежней, простоя не будет, а вот скорость чтения упадет до построения новой реплики, поскольку второй копии данных пока нет.
2. Отказывает хост VMware ESXi целиком.

В этом случае запускать процесс восстановления сразу же, конечно, не нужно - мало ли что могло случиться с хостом, например, его случайно перезагрузили, или временно пропало сетевое соединение.
В этом случае происходит ожидание в течение 60 минут, и если отказавший хост ESXi не оживет, то начнется процесс создания реплики виртуального диска VMDK на другом хосте. Это время можно изменить в расширенной настройке кластера VSAN.ClomRepairDelay, но пока не известно будет ли это поддерживаться со стороны VMware.
3. Отказ SSD-диска в дисковой группе.
В кластере VMware Virtual SAN поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп.
В данном случае Failure Domain - это вся дисковая группа, включающая в себя SSD-диск, который используется для двух типов операций:
- Read Cache (70% емкости) - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
- Write Buffering (30% емкости) - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Таким образом, при отказе SSD-диска, виртуальная машина начинает использовать реплику на уровне всей дисковой группы на другом хосте VMware ESXi. Вот почему выгодно делать две дисковых группы 3HDD+1SSD, чем одну 6HDD+1SSD.
Вот, в общем-то, и все. Более подробно об использовании SSD-дисков, их производительности и ресурсе можно прочитать вот в этой статье. Таги: VMware, VSAN, HA, Performance, Storage, ESXi, vSphere
Низкая производительность RDM-диска при использовании в качестве кворумного диска кластера MSCS в VMware vSphere 5.1 и ниже.
Коллеги рассказали про интересный случай: создали RDM-диск для двух виртуальных машин MSCS-кластера "across boxes", подцепили его к виртуальным машинам на двух хостах ESXi, а производительность на нем упала до 10 МБ/сек, хотя этот диск находится на быстром FC-хранилище EMC VNX и скорость должна измеряться сотнями МБ/сек. При этом в качестве хост-платформы используется VMware vSphere 5.1.
Ответ оказался простым - для хранилищ EMC VNX хост ESXi выставляет политику путей по умолчанию Round Robin (балансировка по двум путям). При использовании кластера MSCS на кворумном диске вызываются SCSI-3 резервации. SCSI-3 резервация (registration) посланная по одному пути позволяет производить дальнейшие резервации или SCSI-команды только по этому пути.
А при использовании политики Round Robin, когда плагин PSP_RR переключает на другой путь, кластер MSCS получает ошибку и пробует сделать SCSI-3 резервацию повторно или выполнить другие команды.
Поэтому вместо политики Round Robin для конкретного хранилища и для данного RDM-диска надо использовать следующие политики путей (плагины PSP_MRU или PSP_FIXED), в зависимости от типа хранища. Они приведены в KB 1010041 и в таблице ниже:
| Дисковый массив
| Плагин SATP
| Политика путей для использования с MSCS
|
| EMC Clariion |
ALUA_CX |
FIXED |
| EMC Symmetrix |
SYMM |
FIXED |
| EMC VNX |
ALUA_CX |
FIXED |
| HITACHI |
DEFAULT_AA |
FIXED |
| IBM 2810XIV |
ALUA |
MRU |
| IBM 2810XIV |
DEFAULT_AA |
FIXED |
| NETAPP Data ONTAP 7-Mode |
DEFAULT_AA |
FIXED |
Для того, чтобы выставить политику путей, нужно в разеле Storage в vSphere Client выбрать нужный HBA-адаптер и устройство, для которого создан RDM-диск, и из его контекстного меню выбрать пункт Manage Paths (это также можно сделать в свойствах виртуальной машины для диска):

После выставления корректной политики путей скорость для кворумного диска MSCS вырастет в разы. Кстати, если вы используете VMware vSphere 5.5 и выше, то такого поведения там уже нет, и все работает корректно.
О новых возможностях VMware vSphere 5.5 по поддержке кластеров MSCS мы уже писали вот тут. Таги: VMware, vSphes, MSCS, Microsoft, HA, Bugs, Storage
3D-ускорение VDI на практике (NVIDIA GRID). ТЕСТЫ. Часть 1.
Отсутствие аппаратного ускорения графики является существенным препятствием при внедрении технологий виртуализации в компаниях, работающих в сфере дизайна, проектирования, конструкторских разработок и пр. Рассмотрим, какие новые возможности появились с выходом адаптеров, предназначенных специально для работы с 3D-графикой NVIDIA GRID. Классный пост компании ИТ-ГРАД - с реальными тестами. Таги: NVIDIA, GRID, VDI, IT Grad, VMware, Citrix, Performance
Как добавлять и сравнивать данные о производительности VMware ESXi, полученные средствами ESXTOP, с помощью Windows Perfmon.
Мы очень много писали о том, как с помощью утилиты esxtop можно собирать с хостов VMware ESXi данные о производительности и различные метрики (например, тут и тут). Данные, полученные с помощью этой утилиты, очень часто помогают разобраться в источнике проблем в части вычислительных ресурсов, хранилищ и сетевого взаимодействия.
В этой заметке мы поговорим немного о визуализации данных esxtop. Не так давно мы писали об утилите VisualEsxtop, которая как раз тем самым и занимается - строит графики по наборам данных. Но недавно мы наткнулись на простой способ, позволяющий с помощью Windows Perfmon сравнивать наборы данных esxtop с разных хостов ESXi.
1. Итак, сначала нужно собрать данные с хоста ESXi в пакетном режиме в файл .csv. Например:
esxtop -b -d 10 -n 360 > esxtopresults.csv
Здесь:
- -b - означает пакетный режим работы утилиты.
- -d (delay) - промежуток между срезами сбора данных.
- -n - число число таких срезов (сэмплов).
В данном случае будет собрано 360 сэмплов данных с промежутком в 10 секунд, то есть сбор займет 1 час.
Можно сжать результаты, чтобы экономить место на хосте, командой:
esxtop -b -d 10 -n 360 | gzip > esxtopresults.csv.gz
2. Загружаем данные в Windows Perfmon, выбрав источник - наш файл csv:

Визуализируем нужные счетчики:

3. Пробуем добавить еще один csv с другого хоста ESXi (с которым мы хотим сравнить данные первого хоста), но нам говорят, что так нельзя - можно такие файлы смотреть только по одному:

Не беда - сохраняем данные как бинарный файл с расширением *.blg, выбрав нужные счетчики:

Дальше просто удаляем этот файл из источников данных Perfmon, добавляем второй csv-файл и так же сохраняем его как *.blg.
Ну а дальше оба этих файла добавляем по одному - и все работает:

Добавляем сохраненные счетчики:

И данные с обоих хостов показываются на одном графике:

Источник заметки: www.viktorious.nl. Таги: VMware, ESXi, esxtop, perfmon, Windows, Performance, vSphere
Полный обзор новых возможностей vGate R2 версии 2.6 - демо-версия уже доступна.
Не так давно мы уже писали про новые возможности технического релиза vGate R2 версии 2.6 - продукта, предназначенного для защиты виртуальных инфраструктур VMware. Там мы описали основные новые фичи решения, которое уже, кстати, доступно для загрузки в демо-версии, а в этой статье рассмотрим их подробнее, приведем несколько скриншотов и комментариев. Таги: vGate, Security, Update, Security Code, VMware, ESXi, vSphere, vCenter, View
Как правильно клонировать виртуальную машину с VMware ESXi внутри.
Многие администраторы и разработчики для своих целей используют VMware ESXi, работающий в виртуальной машине (так называемый Nested ESXi). Туда даже можно ставить свои VMware Tools.
При этом, когда требуется использовать виртуальные ESXi, как правило, их требуется несколько штук. Есть три способа получить их:
- Поставить заново и настроить - самый надежный, но долгий.
- Использовать процедуру автоматической установки и настройки Kickstart. Но тут надо знать, как это делается.
- Склонировать существующий экземпляр ESXi - самое простое решение, но сделать это нужно правильно.
Вильям Лам описал третий вариант процедуры подготовки ESXi к клонированию, после проведения которой можно развертывать эти инстансы легко и просто. В результате у новых ESXi будут свои MoRef ID, UUID, BIOS UUID и MAC-адреса.
Итак, что нужно сделать:
1. Смена MAC-адреса VMkernel при смене MAC-адреса сетевого интерфейса VM Network.
Если развертывать новый ESXi с новым MAC-адресом Virtual machine network, то необходимо также поменять MAC-адрес VMkernel. Для этого есть настройка FollowHardwareMac, которая позволяет делать это автоматически.
Для этого выполняем команду консоли ESXCLI:
esxcli system settings advanced set -o /Net/FollowHardwareMac -i 1

2. Удаляем упоминание об UUID из esx.conf.
Запись о системном UUID сервера ESXi хранится в основном конфигурационном файле esx.conf (/etc/vmware/esx.conf). Нужно удалить строчку с упоминанием этого UUID - и тогда он сгенерируется при следующей загрузке.

После этого можно выключать ВМ с виртуальным VMware ESXi и клонировать ее. При загрузке новой ВМ, естественно, нужно поменять IP-адрес и прочую сетевую идентификацию.
В комментариях к заметке Вильяма пишут, что такой способ можно использовать для клонирования LUN, содержащего образ для загрузки ESXi по SAN.
Таги: VMware, ESXi, VMachines, Nested, vSphere, Blogs
Улучшения VMware vSphere 5.5 в механизмах работы с кластерами Microsoft MSCS.
При каждом релизе платформы виртуализации VMware vSphere неизменно возникают вопросы о том, что же изменилось в плане поддержки гипервизором ESXi кластеров Microsoft Clustering Services (MSCS). Напомним, что базовая информация об этом находится здесь.
Вот какие варианты развертывания кластеров MSCS для различных приложений поддерживает VMware vSphere 5.5 (напомним, что о кластерах MSCS мы писали тут, тут и тут):
|
Microsoft
Clustering on
VMware
| vSphere
support
| VMware
HA
support
| vMotion
DRS
support
| Storage
vMotion
support
| MSCS
Node
Limits
| Storage Protocols support
| Shared Disk
|
| FC |
In-Guest
OS iSCSI |
Native
iSCSI |
In-Guest OS SMB |
FCoE |
RDM |
VMFS |
Shared
Disk |
MSCS with
Shared Disk |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Exchange Single
Copy Cluster |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
| SQL Clustering |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
SQL AlwaysOn
Failover Cluster
Instance |
Yes |
Yes |
No |
No |
2
5 (5.1 and 5.5) |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Yes |
Non
shared
Disk |
Network Load
Balance |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
| Exchange CCR |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
| Exchange DAG |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
SQL AlwaysOn
Availability
Group |
Yes |
Yes |
Yes |
Yes |
Same as
OS/app |
Yes |
Yes |
Yes |
N/A |
Yes |
N/A |
N/A |
А вот какие версии и конфигурации кластеров Microsoft поддерживаются для различных верси гостевых ОС Windows Server и VMware vSphere:
Clustering
Solution
| Support
Status
| Clustering Version
| vSphere
Version
|
MSCS with
shared disk |
Supported |
Windows Server 20031
Windows Server 2008
Windows Server 20122
Windows Server 2012 R24
|
4.x/5.x |
Network
Load Balance |
Supported |
Windows Server 2003 SP2
Windows Server 2008
Windows 2008 R2
|
4.x/5.x |
| SQL clustering |
Supported |
Windows Server 20031
Windows Server 2008
Windows Server 20122
Windows 2008 R2
Windows Server 2012 R24
|
4.x/5.x |
SQL AlwaysOn
Failover Cluster Instance |
Supported |
Windows Server 2008 SP2 or higher
Windows Server 2008 R2 SP1 or higher
Windows Server 20122
Windows Server 2012 R24
|
4.x/5.x |
SQL AlwaysOn
Availability
Group |
Supported |
Windows Server 2008 SP2 or higher
Windows Server 2008 R2 SP1 or higher
Windows Server 20123
Windows Server 2012 R24
|
4.x/5.x |
Exchange
Single copy
cluster |
Supported |
Exchange 20031
Exchange 2007 |
4.x/5.x |
| Exchange CCR |
Supported |
Windows 20031
Windows 2008 SP1 or higher
Exchange 2007 SP1 or higher
|
4.x/5.x |
| Exchange DAG |
Supported |
Windows 2008 SP2 or higher
Windows 2008 R2 or higher
Windows Server 20123
Windows Server 2012 R24
Exchange 2010
Exchange 2013 |
4.x/5.x |
А теперь перейдем к нововведениям, касающимся поддержки MSCS в VMware vSphere 5.5:
1. Во-первых, к общему хранилищу узлов кластера MSCS может быть организован доступ по нескольким путям посредством политики Round Robin (модуль PSP_RR). Ранее это сделать было нельзя ввиду проблем со SCSI reservations. Теперь эта проблема решена.
Однако тут есть ограничения:
- Поддерживается только для гостевых ОС Windows 2008 и Windows 2012.
- Поддерживаются только конфигурации Cluster Across Boxes (CAB) и N+1. Системы "Cluster in a box" (CIB) используют Virtual Reservations.
- Общий диск (Quorum или Data) должен быть развернут в режиме pass-through RDM.
2. Во-вторых, появилась поддержка протоколов FCoE & iSCSI. Ранее полноценно в качестве общего хранилища для кластеров MSCS поддерживались только хранилища Fibre Channel, с оговорками iSCSI и как-то частично FCoE. Теперь же полноценно можно использовать iSCSI и FCoE хранилища.
А именно:
- Все конфигурации кластеров: CAB, CIB и N+1 поддерживаются iSCSI.
- Поддержка адаптеров iSCSI:
- Software iSCSI;
- Аппаратные адаптеры QLogic, Emulex и Broadcom.
- Поддержка режима Mixed mode для iSCSI-инициатора.
- До 5 узлов в кластере поддерживается для Windows 2008 SP2 и более поздних версий.
3. В-третьих, появилась поддержка кластеризации гостевых ОС Windows 2012 MSCS.
Если все это обобщить, то получится картинка, взятая отсюда:

Больше подробностей о поддержке MSCS в VMware vSphere 5.5 можно узнать из KB 2052238. Таги: VMware, vSphere, MSCS, Microsoft, HA
Сайзинг кластеров хранилищ VMware VSAN в VMware vSphere и их отказоустойчивость.
Как многие знают, в VMware vSphere 5.5 появились возможности Virtual SAN, которые позволяют создать кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бета этого решения, кроме того мы не так давно писали о производительности VSAN тут и тут.
Сегодня же мы поговорим о том, как нужно сайзить хранилища Virtual SAN в VMware vSphere, а также немного затронем тему отказоустойчивости. Более детальную информацию можно найти в VMware Virtual SAN Design & Sizing Guide, а ниже мы расскажем о подходе к планированию хранилищ VSAN вкратце.
Объекты и компоненты Virtual SAN
Начнем с простого ограничения по объектам (objects) и компонентам (components), которое есть в VSAN. Виртуальные машины, развернутые на vsanDatastore, могут иметь 4 типа объектов:
- Домашняя директория виртуальной машины Virtual Machine ("namespace directory").
- Объект файла подкачки - swap object (для включенной ВМ).
- Виртуальный диск VMDK.
- Дельта-диски для снапшотов. Каждый дельта-диск - это отдельный объект.
Каждый объект, в зависимости от типа RAID, рождает некоторое количество компонентов. Например, один VMDK, размещенный на двух томах страйпа (RAID 0) рождает два объекта. Более подробно об этом написано вот тут.
Так вот, ограничения тут следующие:
- Максимальное число компонентов на 1 хост ESXi: 3000.
- Максимальное число компонентов для одного объекта: 64 (это включает в себя тома страйпов и также реплики VMDK с других хостов).
На практике эти ограничения вряд ли актуальны, однако о них следует знать.
Сколько дисков потребуется для Virtual SAN
Во второй бета-версии VSAN (и, скорее всего, так будет в релизной версии) поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп. Таким образом, на хосте поддерживается до 5 SSD-дисков и до 35 HDD-дисков. Надо убедиться, что контроллеры хоста поддерживают необходимое количество дисков, а кроме того нужно проверить список совместимости VSAN HCL, который постоянно пополняется.

Также надо учитывать, что кластер хранилищ Virtual SAN поддерживает расширение как путем добавления новых дисков, так и посредством добавления новых хостов в кластер. На данный момент VMware поддерживает кластер хранилищ максимум из 8 узлов, что суммарно дает емкость в дисках в количестве 40 SSD (1*5*8) и 280 HDD (7*5*8).
Сколько дисковой емкости нужно для Virtual SAN (HDD-диски)
Необходимая емкость под размещение VMDK зависит от используемого параметра FailuresToTolerate (по умолчанию 1), который означает, какое количество отказов хостов может пережить кластер хранилищ. Если установлено значение 1, то реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно сказать о том, как работает отказоустойчивость кластера Virtual SAN. Если отказывает хост, на котором нет виртуальной машины, а есть только VMDK или реплика, то виртуальная машина продолжает работу с основной или резервной копией хранилища. В этом случае начнется процесс реконструкции реплики, но не сразу - а через 60 минут, чтобы дать время на перезагрузки хоста (то есть если произошел не отказ, а плановая или внеплановая перезагрузка), а также на короткие окна обслуживания.
А вот если ломается хост, где исполняется ВМ - начинается процедура восстановления машины средствами VMware HA, который перезапускает ее на другом хосте, взаимодействуя при этом с Virtual SAN.
Более подробно этот процесс рассмотрен вот в этой статье и вот в этом видео:
Однако вернемся к требующейся нам емкости хранилищ. Итак, если мы поняли, что значит политика FailuresToTolerate (FTT), то требуемый объем хранилища для кластера Virtual SAN равняется:
Capacity = VMDK Size * (FTT + 1)
Что, в принципе, и так было очевидно.
Сколько дисковой емкости нужно для Virtual SAN (SSD-диски)
Теперь перейдем к SSD-дискам в кластере VSAN, которые, как известно, используются для вспомогательных целей и не хранят в себе данных виртуальных машин. А именно, вот для чего они нужны (более подробно об этом тут):
- Read Cache - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
- Write Buffering - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.
Так каковы же рекомендации VMware? Очень просты - под SSD кэш и буфер неплохо бы выделять 10% от емкости HDD-дисков хоста. Ну и не забываем про значение FailuresToTolerate (FTT), которое в соответствующее число раз увеличивает требования к емкости SSD.
Таким образом, необходимая емкость SSD-хранилищ равна:
Capacity = (VMDK Size * 0.1) * (FTT + 1)
Ну и напоследок рекомендуем отличнейший список статей на тему VMware Virtual SAN:
Таги: VMware, Virtual SAN, VSAN, vSphere, ESXi, Storage, Sizing, Blogs
Какие адаптеры NVIDIA и AMD поддерживаются для режимов vSGA / vDGA в VMware vSphere 5.5 и требования к платформе и гостевым ОС.
Как вы знаете, в VMware vSphere 5.5 и VMware Horizon View 5.3 в гостевых ОС виртуальных машин поддерживаются функции гостевых систем по обработке 3D-графики на стороне сервера за счет использования следующих режимов:
- Soft 3D - рендеринг 3D-картинки без использования адаптера на основе программных техник с использованием памяти сервера.
- vDGA - выделение графического адаптера (GPU) отдельной виртуальной машине.
- vSGA - использование общего графического адаптера несколькими виртуальными машинами.
Естественно, для всего этого необходимы специальные серверные видеоадаптеры, поддерживающие режимы vDGA и vSGA, например, NVIDIA Grid K1 и K2.
Однако справедливости ради надо отметить, что несмотря на то, что NVIDIA является пионером визуализации 3D-графики в виртуальных машинах VMware, и там режимы vDGA/vSGA уже работают, поддержка данных техник также заявлена и в адаптерах AMD (но на данный момент, судя по всему, это не совсем полноценно работает). Функции vSGA и vDGA поддерживаются следующими графическими адаптерами:
NVIDIA
- Grid K1 and K2
- Quadro 4000/5000/6000
- Tesla M2070Q

AMD
- FirePro S7000 /S9000/S10000
- FirePro v7800P/V9800P

С точки зрения платформы виртуализации, гостевых ОС и прочего виртуальные машины с поддержкой vDGA должны удовлетворять следующим требованиям:
- Платформа VMware vSphere 5.1 или более поздней версии (в 5.5 функции шире), для виртуальных ПК - VMware Horizon View 5.2 или более поздняя версия (5.3).
- Использование одного из клиентов vSphere либо VMware Workstation.
- ВМ с гостевой ОС Windows 7 или Windows 8 если используется vSphere / View. Для режима vDGA поддерживаются только 64-битные ОС.
- ВМ с гостевыми ОС Fedora 10+/Ubuntu 12+ (только на платформе vSphere).
- В настройках виртуальной машины нужно включить поддержку 3D-графики (если используется режим vSGA, для vDGA - это не нужно).
- Необходимы VIB-модули для VMware ESXi от производителя графического адаптера (например, для NVIDIA их можно найти тут). Они разрабатываются и поддерживаются NVIDIA и AMD - не VMware. VIB-модули нужно ставить только для режима vSGA.
- Для виртуальных ПК необходим клиент на базе протокола PCoIP или HTML-клиент (протокол Blast).
На сегодняшний день, с точки зрения поддержки приложений в гостевых ОС режимов vSGA и vDGA, компания VMware предоставляет вот такие таблички:



Ну и для тех, кто хочет углубиться в детали рекомендуем документ "Virtual Machine Graphics Acceleration Deployment Guide". Таги: VMware, NVIDIA, AMD, Hardware, VMachines, vSphere, View, Horizon, vDGA, vSGA
Обновление VMware ESXi 5.5 средствами Interactive Installer
Таги:
Немного о Hot Add / Hot plug для виртуальных процессоров и памяти виртуальных машин VMware vSphere.
Как знают многие администраторы, в VMware vSphere есть такая возможность как Hot Add (для процессоров ее называют Hot plug) виртуальных устройств (vRAM и vCPU), которая позволяет добавить эти ресурсы прямо в работающую виртуальную машину без необходимости ее остановки.
По умолчанию функции Hot Add для виртуальных машин на VMware ESXi выключены, чтобы не создавать дополнительную нагрузку при ненужном для большинства пользователей функционале. Hot Add можно включить на вкладке Options для виртуальной машины:

Это же можно сделать и через vSphere Web Client:

После этого можно добавлять vCPU и vRAM работающей виртуальной машине (но не для всех гостевых ОС). Вот какие требования предъявляются к технологии Hot Add в VMware vSphere:
- Минимально необходима версия виртуального "железа" Hardware Version 7 или более поздняя.
- Технология Hot-add/Hot-Plug не совместима с техникой Fault Tolerance.
- Для поддержки Hot Add понадобится одно из следующих коммерческих изданий: vSphere Advanced, Enterprise или Enterprise plus.
- Возможно только горячее добавление vRAM и vCPU, но не горячее удаление (раньше это поддерживалось) - и только для списка поддерживаемых ОС.
- Необходимо учитывать особенности лицензирования гостевой ОС по процессорам и памяти, когда проводите такие манипуляции.
| Гостевая ОС |
Лицензия VMware vSphere |
Hot-Add RAM | Hot-Plug CPUs |
| Windows Server 2003 32bit/64bit | Standard
Enterprise |  | |
| Windows Server 2008 32bit | Standard
Enterprise
Datacenter |  | |
| Windows Server 2008 64bit | Standard
Enterprise |  | |
| Windows Server 2008 64bit | Datacenter |  |  |
| Windows Server 2008 R2 | Standard
Enterprise |  | |
| Windows Server 2008 R2 | Datacenter |  |  |
| Windows Server 2012 |
Standard
Datacenter |
 |
 |
| Windows Server 2012 R2 | Standard
Datacenter |
? | Нет, см. KB 2050800 |
Если вы планируете использовать технологию Hot Add в Windows Server 2003, то нужно иметь в виду, что начнет происходить что-то странное, о чем написано в KB 913568 компании Microsoft.
Кроме этого, если вы включите Hot Add для виртуальных процессоров (vCPU), у вас прекратит работать технология vNUMA, что может существенно повлиять на производительность (см. KB 2040375). Ну а в логе в этом случае будет написано следующее:
vmx| W110: NUMA and VCPU hot add are incompatible. Forcing UMA
Таги: VMware, vSphere, Hot Add, Hot Plug, VMachines, vCompute, Blogs
VMware Tools для виртуального VMware ESXi - очередная полезность на VMware Labs.
То, о чем думали многие экспериментаторы и разработчики, но боялись попросить - на сайте проекта VMware Labs появились VMware Tools для виртуального VMware ESXi. Они поддерживают VMware vSphere версий 5.0, 5.1 и 5.5.

Как многим стало понятно, это пакет ПО, предназначенный для установки в консоли сервера ESXi, когда он установлен в виртуальной машине, запущенной на уже физической платформе с ESXi (по аналогии с VMware Tools для виртуальных машин).
Вот какие возможности есть в VMware Tools for Nested ESXi:
- Предоставляет в консоли vSphere Client информацию о виртуальной машине с Nested ESXi (IP-адрес, имя хоста и прочее).
- Позволяет виртуальному ESXi быть правильно перезапущенным или выключенным (restart и shut down, соответственно) при операциях через vSphere Client (толстый клиент) или vSphere API.
- Возможность выполнения скриптов во время изменения хостом ESXi состояний питания (включение, выключение и т.п.).
- Поддержка Guest Operations API (бывший VIX API) для операций внутри ВМ (т.е. в консоли вложенного ESXi).
Порядок установки:
- Вариант 1 - скачиваем VIB-пакет, кладем его на датастор и ставим:
esxcli system maintenanceMode set -e true esxcli software vib install -v /vmfs/volumes/[VMFS-VOLUME-NAME]/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f
esxcli system shutdown reboot -r "Installed VMware Tools" - See more at: http://www.virtuallyghetto.com/2013/11/w00t-vmware-tools-for-nested
esxi.html#sthash.f89qps1O.dpuf
- Вариант 2 - устанавливаем VIB прямо с сайта VMware:
esxcli network firewall ruleset set -e true -r httpClient
esxcli software vib install -v http://download3.vmware.com/software/vmw-tools/esxi_tools_for_guests/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f
Далее нужно перезагрузить виртуальный VMware ESXi.
Чтобы удалить эти VMware Tools, используйте команду:
esxcli software vib remove -n esx-tools-for-esxi
Таги: VMware, Tools, ESXi, Nested, VMachines, Blogs, Labs
Как заставить работать неподдерживаемый SATA AHCI Controller сервера с VMware ESXi 5.5.
С выходом обновленной версии платформы виртуализации VMware vSphere 5.5 компания VMware ввела новую модель Native Device Driver Architecture, которая позволяет использовать нативные драйверы для VMkernel вместо драйверов под Linux.
Однако, помимо этого нововведения, VMware также убрала и неофициальную поддержку многих SATA-контроллеров, которые раньше и не заявлялись как работающие, но вполне нормально функционировали на whitebox-конфигурациях (например, контроллеры ASMedia и Marvell). Теперь многие SATA-контроллеры в ESXi 5.5 просто не работают.

Но не все так плохо. Поскольку поддержка старой модели драйверов еще осталась (неизвестно будет ли она в следующей версии ESXi, но скорее всего будет, так как не все партнеры успеют перейти на новую модель), то можно заставить работать некоторые неподдерживаемые контроллеры SATA AHCI, поскольку сам драйвер AHCI остался в виде модуля VMkernel (ahci). Andreas Peetz не только написал хорошую статью о том, как это сделать, но и сделал кастомные VIB-пакеты для добавления поддержки некоторых SATA-контроллеров AHCI.
Суть такая - автор раньше думал, что команда vmkload_mod ahci заставляет ESXi загружать драйверы для всех обнаруженных PCI-устройств, то оказалось, что она конфигурирует только устройства, которые есть в файле /etc/vmware/driver.map.d/ahci.map. А там неподдерживаемых девайсов не появляется. Поэтому надо сделать отдельный map-файл и добавить ссылки соответствующих устройств (их PCI ID) на драйвер AHCI.
Андреас сделал VIB-пакет позволяющий добавить поддержку ESXi следующих SATA-контроллеров:
- ASMedia Technology Inc. ASM1061 SATA IDE Controller (1b21:0611)
- ASMedia Technology Inc. ASM1062 Serial ATA Controller (1b21:0612)
- Marvell Technology Group Ltd. 88SE9123 PCIe SATA 6.0 Gb/s controller (1b4b:9123)
- Marvell Technology Group Ltd. 88SE9172 SATA 6Gb/s Controller (1b4b:9172)
В каментах Андреас принимает заявки на добавление поддержки нужных SATA-контроллеров, так что если их в приведенном выше списке - пишите ему и он добавит.
Процедура добавления поддержки контроллеров такова. Добавляем возможность использования кастомных драйверов на ESXi:
esxcli software acceptance set --level=CommunitySupported
Разрешаем использование http на хосте в фаерволе:
esxcli network firewall ruleset set -e true -r httpClient
Устанавливаем VIB-пакет:
esxcli software vib install -v https://esxi-customizer.googlecode.com/files/sata-xahci-1.0-1.x86_64.vib
Пакет sata-xahci предоставляется как в виде VIB-файла, так и в виде Offline Bundle. Включить драйверы в состав установщика ESXi можно с помощью инструментов ESXi-Customizer или ESXi-Customizer-PS. Таги: VMware, Storage, ESXi, Hardware, vSphere, Unsupported
Компания VMware показала нового Вову - виртуальный модуль vSphere OpenStack Virtual Appliance (VOVA).
Те из вас, кто интересуется облачными технологиями, наверняка знают инициативу OpenStack, которая представляет собой комплекс проектов свободного программного обеспечения, предназначенного для построения облачной инфраструктуры.
Open Stack - это не продукт, не платформа и не фреймворк. Это некий набор "кирпичиков", с помощью которых может строиться инфраструктура облака, в том числе гетерогенная:

OpenStack называют еще облачной операционной системой, хотя, строго говоря, она таковой не является. Эту инициативу в той или иной степени поддерживают 150 компаний (это активных, а пассивных намного больше), хотя большинство архитектур OpenStack используют в качестве ОС Ubuntu (в 80% случаев), а в качестве гипервизора KVM.

Но поскольку основной целью OpenStack провозглашается открытость и вендоронезависимость при построении частного или публичного облака, то вы можете использовать в качестве гипервизора, например, VMware ESXi, а в качестве хранилищ Microsoft Windows Server 2012 R2, используя при этом компоненты OpenStack, предназначенные для комплексного управления облачными сервисами (многие из них, кстати ориентированы на средства самообслуживания пользователей, которые сами могут запрашивать себе ресурсы облака). В этом смысле средства OpenStack чем-то похожи на решение vCloud Director от компании VMware.
Еще летом 2013 года компания VMware объявила о скором запуске виртуального модуля vSphere OpenStack Virtual Appliance (VOVA), который позволит наладить интеграцию с такими компонентами OpenStack, как Nova (контроллер вычислительных ресурсов) and Cinder (облачные блочные хранилища).
А совсем недавно VMware объявила о новой версии vSphere OpenStack Virtual Appliance (VOVA), которое можно использовать для дистрибутива Mirantis OpenStack (компании Mirantis).

Однако, скажем сразу, что этот модуль не является официальным решением VMware, это просто способ показать, как именно можно интегрировать компоненты VMware vSphere в архитектуру OpenStack.
Вот что можно делать с помощью VOVA:
- В качестве OpenStack Compute service (Nova) использовать VMware vCenter Server
- В качестве OpenStack Networking service (Neutron) использовать VMware NSX (пока недоступно в текущей версии)
- В качестве OpenStack Block Storage service (Cinder) использовать виртуальные диски формата VMware VMDK
- Возможность совместимости с дистрибутивом OpenStack Havana в будущих релизах
Видеодемонстрация решения vSphere OpenStack Virtual Appliance:
Для тех, кто дочитал до конца, бонус - лабораторная работа, где можно самостоятельно потыкать Вову и ознакомиться с архитектурой OpenStack: http://labs.hol.vmware.com/HOL/#lab/698.
Ну и постоянная ссылка на инициативы VMware для OpenStack - http://www.vmware.com/go/openstack. Таги: VMware, VOVA, OpenStack, ESXi, vSphere, Cloud, Cloud Computing
Процедура обновления компонентов решения vGate R2 от Кода Безопасности.
Продолжаем вас знакомить с продуктом vGate R2, предназначенным для защиты виртуальных сред VMware vSphere. Напомним, что он позволяет производить автоматическую настройку конфигурации безопасности хост-серверов VMware ESX / ESXi средствами политик, защищать инфраструктуру от несанкционированного доступа, а также имеет все необходимые сертификаты ФСТЭК (включая сертификаты на vSphere 5.1). Таги: vGate, VMware, Update, Security, ESX, ESXi
Документы: что такое VMware vSphere Flash Read Cache (vFlash) и официальный FAQ.
Мы уже писали про распределенный кэш на SSD-накопителях локальных дисков серверов ESXi, который имел рабочее название vFlash, а затем превратился в полноценную функцию VMware vSphere Flash Read Cache платформы VMware vSphere 5.5.

Сегодня мы хотим обратить внимание на два интересных документа, которые раскрывают подробности использования этой технологии.
Напомним, что Flash Read Cache позволяет использовать кэширование данных только на чтение для дисков VMDK виртуальных машин, работает она на уровне гипервизора и существенно улучшает производительность виртуальных машин, которые интенсивно используют подсистему ввода-вывода для операций на чтение. Очевидно, что SSD-кэш, который по производительности находится между оперативной памятью и обычными дисками, существенно повышает быстродействие в системах, где периодически наблюдается недостаток ресурсов RAM. Все это дело работает в кластере до 32 хостов ESXi.
Итак, первый документ о том как работает технология Flash Read Cache - "What’s New in VMware vSphere Flash Read Cache":

В этом документе описано, как работает инфраструктура vFlash в рамках виртуальной инфраструктуры vSphere, для каких целей можно использовать данную технологию, требования, а также шаги по установке и настройке этого механизма.
Второй документ - это официальный FAQ VMware по технологии Flash Read Cache - "VMware vSphere Flash Read Cache 1.0 FAQ". Так как она появилась впервые, и не все технические особенности ясны администраторам, в документе даны ответы аж на 67 вопросов.

Интересные факты из этого FAQ:
- В качестве интерфейсов накопителей поддерживаются SATA, SAS и PCI Express.
- До 8 устройств vFlash на один хост ESXi и до 4 ТБ емкости на устройство (до 400 ГБ на один VMDK). На один контейнер VFFS (то есть на хост) поддерживается до 32 ТБ.
- В качестве хранилищ ВМ механизмом поддерживаются тома VMFS/NFS/vRDM (pRDM не поддерживается).
- Настраивается только через Web Client.
- При изменении настроек vFlash все кэши для дисков сбрасываются.
- Thin provisioning не поддерживается технологией vFlash.
- При миграции виртуальной машины средствами vMotion можно использовать 2 политики: Always migrate the cache contents (copy) - кэш копируется вместе с ВМ и Do not migrate the cache contents (drop) - кэш очищается. Техники VMware HA / SVMotion также полностью поддерживается.
- Механизм VMware DRS при миграции не затрагивает машины с включенным Virtual Flash Read Cache.
- Операции, которые очищают кэш ВМ: suspend, изменение конфигурации, удаление,
перезапуск машины или хоста, восстановление из снапшота. Операции, которые не очищают кэш: снятие снапшота, клонирование, миграция vMotion, fast suspend/resume.
- В vCenter есть 3 специальных метрики для мониторинга vFlash (IOPS, Latency и объем кэша).
- Кэшем vFlash можно управлять через ESX CLI:
get –m <module> -c <cache file name>
- Файлы кэша vFlash находятся в следующей директории на хосте:
/vmfs/volumes/vffs/vflash
Информацию об официально поддерживаемых механизмом VMware vSphere Flash Read Cache устройствах можно найти по этой ссылке: http://www.vmware.com/resources/compatibility/search.php?deviceCategory=vfrc
Таги: VMware, vSphere, vFlash, ESXi, Storage, Performance, Whitepaper
Вышла финальная версия руководства по безопасности VMware vSphere 5.5 Hardening Guide.
Не так давно мы писали о том, что компания VMware обкатывает бета-версию своего руководства по обеспечению безопасности виртуальной среды, а вчера этот документ VMware vSphere 5.5 Hardening Guide был выпущен в окончательной редакции. Если говорить об изменениях по сравнению с бета-версией, то в основном были сделаны добавления в части vSphere Web Client.

Традиционно в документе, который представляет собой Excel-файл с несколькими вкладками, присутствуют следующие разделы:
- Virtual Machines
- ESXi hosts
- Virtual Network
- vCenter Server (а также различные БД и клиенты)
- vCenter Web Client
- vCenter SSO Server
- vCenter Virtual Appliance (VCSA) и различные аспекты его использования
- vCenter Update Manager
- vSphere Management Assistant (vMA)
- различные аддоны
По поводу большинства рекомендаций есть необходимые команды CLI или PowerCLI, которые приведут компоненты VMware vSphere в желаемое состояние. Рекомендуется обращать внимание на колонку Negative Functional Impact, которая описывает возможные негативные последствия для инфраструктуры.
Кроме того, некоторые параметры разделены по "профилям риска":
- Risk Profile 1 - для суперзащищенных систем (обработка гостайны, информация особой важности). Надо учитывать, что применение этих рекомендаций может повлечь за собой то, что некоторые функции платформы перестанут работать.
- Risk Profile 2 - рекомендации среднего уровня защиты, которые необходимо применять при работе с чувствительными данными.
- Risk Profile 3 - то, что должны (по-хорошему) применять все.
Также, по традиции, есть и лог изменений с предыдущей версии:

Некоторые вещи были изменены совсем недавно, поэтому многим будет интересно этот док посмотреть.
Скоро VMware vSphere 5.5 Hardening Guide появится вот на этой странице, где собираются все версии руководств Security Hardening Guides (там пока есть доки для vCloud Director и Configuration Manager).
Прямые ссылки на скачивание:
Также порекомендуем здесь комплексное средство для обеспечения безопасности виртуальной инфраструктуры vGate R2, которое (помимо всего прочего) позволит применить необходимые политики Security Hardening Guide и обеспечить защиту от НСД. Таги: VMware, vSphere, Security, Whitepaper, ESXi, vCenter, VSA, Update
Новая архитектура драйверов в VMware ESXi 5.5 - Native Device Driver Architecture.
Немногие знают, что с выходом обновленной платформы виртуализации VMware vSphere 5.5 компания VMware поменяла архитектуру драйверов, которые использует гипервизор для взаимодействия с аппаратным обеспечением. Теперь эта архитектура называется Native Device Driver Architecture, и она позволяет использовать нативные драйверы для VMkernel вместо драйверов под Linux.
William Lam написал хороший пост на эту тему. Изложим здесь его основные моменты вкратце.
Раньше VMware ESX / ESXi использовал архитектуру драйверов Linux, но поскольку ядро гипервизора VMkernel - это не Linux, то VMware пришлось сделать модуль vmklinux, который находится между VMkernel и драйверами:

Эта архитектура позволяет драйверам "Linux-происхождения" общаться с VMkernel через API, предоставляемый vmklinux.
Однако очевидно, что у такой архитектуры есть множество недостатков:
- Дополнительный уровень трансляции команд добавляет багоемкости и потерь производительности.
- Необходима совместимость драйверов с ядром Linux, хотя требуется-то всего лишь совместимость с VMkernel.
- Ограниченность функциональности драйвера - он может сделать для VMkernel не больше, чем может сделать для Linux.
Ввиду всего этого в VMware ESXi 5.5 и была введена новая архитектура, в которой отсутствует ненужная прослойка:

Теперь VMware предоставляет своим партнерам средство разработки Native Driver Development Kit (NDDK), которое позволяет производителям аппаратного обеспечения делать нативные драйверы для VMware ESXi / VMkernel как для отдельной ОС. Доступна эта возможность только партнерам уровня TAP (Technology Alliance Partner).
С одной стороны это все выглядит позитивно, если бы не одно но. Если раньше Linux-драйверы, которые выпускались под лицензией GPL, были доступны как open source, то и исходные коды драйверов для ESXi (в соответствии с лицензией GPL) были также доступны публично.
Поэтому независимые разработчики могли использовать их для разработки собственных и доработки существующих драйверов к устройствам, официально неподдерживаемым VMware ESXi (для так называемого "Whitebox-железа").
Теперь же VMware не планирует выпускать драйверы как Open Source, что сильно ограничит возможности по поддержке аппаратных компонентов и платформ, отсутствующих в списке совместимости HCL.
Платформа виртуализации VMware vSphere 5.5 на данный момент поддерживает как legacy-модель драйверов, так и Native Device Driver Architecture в целях обратной совместимости. Однако рано или поздно VMware откажется от поддержки Linux-драйверов, и многим пользователям такое не понравится.
Поэтому VMware просто обязана предоставить всем разработчикам свободный доступ к NDDK, а не только TAP-партнерам, чтобы сохранить хорошую репутацию в такой ситуации.
И вот еще хороший пост про исключение драйверов Realtec из ESXi 5.5. Таги: VMware, ESXi, Hardware, NDDK, vSphere
Вышел VMware vCenter Converter Standalone 5.5 - новые возможности для миграции физических серверов в виртуальную среду.
Больше двух лет назад (ого, давно же!) мы писали о том, что вышел VMware vCenter Converter Standalone 5.0, который был заточен под миграцию серверов еще на платформу VMware vSphere 5.0. С тех пор компания VMware выпустила решения vSphere 5.1 и vSphere 5.5, соответственно уже очень давно было пора обновить главное средство для P2V-миграции физических серверов в виртуальные машины.
На днях было объявлено о выпуске VMware vCenter Converter Standalone 5.5:

Новых возможностей за два года у конвертера существенно прибавилось, хотя вряд ли все два года над ним велась напряженная работа. Итак, что нового в vCenter Converter Standalone 5.5:
- Поддержка VMware vSphere 5.5.
- Поддержка virtual machine hardware version 10, а значит и таких фич, как диски по 62 ТБ, виртуальные SATA-контроллеры и прочее.
- Поддержка виртуальных машин RedHat KVM в качестве источника для миграции на платформу vSphere.
- Новая опция по выбору типа сетевого адаптера для целевой машины на хосте ESXi.
- Поддержка новых гостевых ОС (см. ниже).
- Параллельная миграция нескольких дисков одной машины, что существенно ускоряет процесс миграции.
- Поддержка целевых хранилищ VMware Virtual SAN.
Converter Standalone поддерживает следующие гостевые ОС (как источники для миграции):
- Windows XP Professional SP3 (32-bit и 64-bit)
- Windows Server 2003 R2 SP2 (32-bit и 64-bit)
- Windows Vista SP2 (32-bit и 64-bit)
- Windows Server 2008 SP2 (32-bit и 64-bit)
- Windows Server 2008 R2 (64-bit)
- Windows 7 (32-bit и 64-bit)
- Windows 8 (32-bit и 64-bit)
- Windows Server 2012 (64-bit)
- Red Hat Enterprise Linux 3.x (32-bit и 64-bit)
- Red Hat Enterprise Linux 4.x (32-bit и 64-bit)
- Red Hat Enterprise Linux 5.x (32-bit и 64-bit)
- Red Hat Enterprise Linux 6.x (32-bit и 64-bit)
- SUSE Linux Enterprise Server 9.x (32-bit и 64-bit)
- SUSE Linux Enterprise Server 10.x (32-bit и 64-bit)
- SUSE Linux Enterprise Server 11.x (32-bit и 64-bit)
- Ubuntu 10.04 LTS (32-bit и 64-bit)
- Ubuntu 12.x (32-bit и 64-bit)
- Ubuntu 13.04 (32-bit и 64-bit)
Windows 8.1 и Windows Server 2012 R2 пока остаются за бортом, здесь надо будет ждать обновления.
С каких платформ можно производить миграцию средствами VMware vCenter Converter Standalone 5.5:
- Физические машины с гостевой ОС и вышеприведенного списка
- Настольные платформы:
- Workstation 7.x, 8.x, 9.x и 10.x
- Fusion 3.x, 4.x, 5.x и 6.x
- Player 3.x, 4.x, 5.x, и 6.x
- Машины под управлением VMware vCenter:
- vSphere 5.5
- vSphere 5.1
- vSphere 5.0
- vSphere 4.1
- vSphere 4.0
- Сторонние образы резервного копирования и платформы виртуализации:
- Acronis True Image Echo 9.1 и 9.5, а также Acronis True Image Home 10 и 11 (.tib).
- Symantec Backup Exec System Recovery (бывший LiveState Recovery) 6.5, 7.0, 8.0, и 8.5, а также LiveState Recovery 3.0 и 6.0 (только формат .sv2i).
- Norton Ghost version 10.0, 12.0 и 14.0 (только формат .sv2i).
- Parallels Desktop 2.5, 3.0 и 4.0 (.pvs и .hdd). Сжатые (compressed) диски не поддерживаются.
- Parallels Workstation 2.x (.pvs). Сжатые (compressed) диски не поддерживаются. Контейнеры Parallels Virtuozzo Containers также не поддерживаются.
- StorageCraft ShadowProtect Desktop, ShadowProtect Server, ShadowProtect Small Business Server (SBS), ShadowProtect IT Edition, versions 2.0, 2.5, 3.0, 3.1 и 3.2 (формат .spf)
- Виртуальные машин на дисках Microsoft VHD со следующих источников:
- Microsoft Virtual PC 2004 и Microsoft Virtual PC 2007 (.vmc)
- Microsoft Virtual Server 2005 и 2005 R2 (.vmc)
Ну а в качестве целевых ВМ могут быть использованы машины на следующих платформах VMware:
- Машины на хост-серверах под управлением VMware vCenter:
- ESX 4.0 и 4.1
- ESXi 4.0, 4.1, 5.0, 5.1 и 5.5
- vCenter Server 4.0, 4.1, 5.0, 5.1 и 5.5
- Машины на хост-платформах под управлением следующих настольных систем:
- VMware Workstation 7.x, 8.x, 9.x и 10.x
- VMware Player 3.x, 4.x, 5.x и 6.x
- VMware Fusion 3.x, 4.x, 5.x и 6.x
Скачать VMware vCenter Converter Standalone 5.5 можно по этой ссылке. Напомним, что продукт полностью бесплатен.
Таги: VMware, Converter, Update, vCenter, P2V, VMachines, ESXi
Анонсы VMworld Europe 2013 - VMware vCenter Log Insight 1.5.
Мы уже писали об анонсах, сделанных на конференции VMworld Europe 2013, в частности о VMware Horizon View 5.3 и VMware vCenter Operations Management Suite 5.8. Сегодня пришел черед продукта VMware vCenter Log Insight 1.5, предназначенного для автоматизированного управления файлами журналов (логами), сбора данных, их анализа и поиска, который сейчас находится в стадии публичного бета-тестирования.
Попросту говоря, это мощный поиск по логам и их визуализатор, который используется для поиска причин проблем в виртуальной инфраструктуре (root cause analysis):

Напомним, что о возможностях VMware vCenter Log Insight 1.0 мы уже писали вот тут, кроме него доступны также Partner Content Packs от различных партнеров VMware (можно парсить и визуализировать логи, например, от хранилищ NetApp или EMC).
Основные новые возможности VMware vCenter Log Insight 1.5:
Управление контентом
- Улучшенный раздел Content Packs
- Возможность импорта content pack в окружение пользователя, что позволяет ему их изменять
- Возможность изменять поля запросов/виджетов, сохранять и обновлять их по требованию
- Функции по реорганизации контента
Так выглядит контент-пак для VMware vSphere:

Импорт контент-пака с возможностью изменения набора компонентов:

Добавление виджета с запросом на дэшборд:

Возможности администрирования VMware vCenter Log Insight 1.5
- Страница Health заменена более функциональной страницей Resources
- Новое представление Appliance с возможностью обновить виртуальный модуль через веб-интерфейс
- Поддержка Active Directory
- Скрипт Configure-esxi теперь есть в графическом интерфейсе
Лайв-графики со вкладки Resources:


Поддержка служб Active Directory:

Запуск скрипта Configure-esxi для сбора логов:

Другие улучшения VMware vCenter Log Insight 1.5
- Функция сбора уникальных событий за определенное время
- Улучшенное кэширование данных, что существенно повышает производительность
- Ограничения вывода результатов - теперь можно задавать условие (например, не содержит какой-либо текст), в целях эффективной фильтрации
- Новое представление Field Table в результатах поиска для получения детальной информации о событии, которое отражает запись в логе
Уникальные события - хосты, имевшие доступ к Log Insight:

Ограничитель результатов вывода (они применяются динамически):

Представление Field Table:

Публичную бету VMware vCenter Log Insight 1.5 можно скачать по этой ссылке. Релизную версию VMware обещает выпустить в середине декабря 2013 года.
Таги: VMware, Center, Log Insight, Beta, Update, Troubleshooting
Вышли VMware vSphere 5.0 Update 3 и ESXi 5.1 Build 1312873, а также HP Custom ESXi 5.5 ISO.
За множеством анонсов VMworld Europe 2013 пользователи платформы виртуализации VMware vSphere могли упустить несколько полезных релизов.
Во-первых, вышла новая версия VMware vSphere 5.0 Update 3:

Это сервисный релиз, включающий в себя следующие возможности:
Информация о гипервизоре ESXi 5.0 Update 3 и остальных компонентах приведена по этим ссылкам: esx-base, misc-drivers, scsi-hpsa, tools-light
Во-вторых, обновилась и VMware vSphere 5.1:

В этом билде были только исправлены баги и не добавилось новых возможностей. Кстати, для интересующихся есть интересная матрица билдов, позволяющая сверить версии компонентов своей виртуальной инфраструктуры.
Кроме всего прочего обновился и HP Customized ESXi 5.0.
В-третьих, вышел HP Customized ESXi 5.5 ISO
Это хорошая новость для тех, кто использует серверы HP и все ждет, как бы начать развертывать на них образы ESXi. Сам образ HP Customized ESXi 5.5 ISO доступен тут. Традиционно, драйверы устройств и различные бандлы доступны в VIB-репозитории HP.

Кстати, ранее этот образ уже выкладывала HP, но там была бага с CIM-провайдерами, которая поправлена в этом билде. Что нового в HP Customized ESXi 5.5 :
- Убрана поддержка старых серверов, а именно: всех моделей G5 и множества G6 (более подробно в ProLiant Server VMware Support Matrix).
Но это не значит, что там ESXi 5.5 не будет работать.
- Утилита hpacucli для конфигурации контроллеров хранилищ из командной строки ESXi была заменена на утилиту hpssacli, которая поддерживает больше контроллеров.
- Новая утилита hptestevent, которая теперь может посылать тестовые события WBEM, что может пригодиться для проверки корректности работы механизма WBEM/CIM (проверка, что хост правильно зарегистрирован в HP SIM для мониторинга аппаратного обеспечения).
Процедура обновления HP-сервера с образа vSphere 5.0 или 5.1 на HP customized ESXi 5.5:
- Загружаем HP Customized ESXi 5.5 Offline bundle (zip-файл) отсюда.
- Загружаем его на датастор хоста ESXi и выполняем команду:
esxcli software profile install -d /vmfs/volumes/<datastore>/VMware-ESXi-5.5.0-1331820-HP-5.71.3-Sep2013-depot.zip -p HP-ESXi-5.5.0-5.71.3
- Перезагружаем хост VMware ESXi.
Таги: VMware, ESXi, Update, HA, vSphere, vCenter
|